Cloud Computing
Veranstalter:
Mitwirkung:
Alexander Schätzle, Geb. 051, Raum 01-028
Martin Przyjaciel-Zablocki, Geb. 051, Raum 01-028
Zeit, Ort & Organisatorisches:
Die Einführungsveranstaltung findet am 26.10.2011 statt.
Raum: Geb. 51 - SR 00 006
Zeit: Mittwoch, 14 - 16 Uhr (c.t.)
Sprache: Deutsch/Englisch
Curriculumeinordnung:
Master of Science: 3. Semester (Team Projekt)
ECTS: 16 (Master)
Grundlagen:
Das Resource Description Framework (RDF) [1] ist der semantische Grundpfeiler des von Tim Berners-Lee beschriebenen Semantic Web [2]. Eine RDF-Datenbank ist eine Sammlung von sogenannten Tripeln der Form (Subjekt, Prädikat, Objekt), welche die binäre Relation Prädikat zwischen Subjekt und Objekt modellieren. Die Gesamtheit der Tripel beschreibt somit einen gerichteten Graph, wobei die Kanten mit dem Prädikat beschriftet sind. Die vom W3C empfohlene Anfragesprache für RDF ist SPARQL.
Hadoop [3] ist eine weit verbreitete Open-Source Implementierung von Google's MapReduce, dass parallelisierte Berechnungen auf einem verteilten System ermöglicht. Probleme bzw. Algorithmen werden dabei als eine Folge von Map() und Reduce() Funktionen modelliert und können vom MapReduce Framework automatisch parallelisiert und verteilt berechnet werden.
Ziel:
Ziel dieses Projektes ist der Entwurf und die Implementierung eines verteilten RDF Stores auf Basis von Hadoop [3]. Der RDF-Store soll dabei beliebige SPARQL 1.0 Anfragen auf RDF-Graphen auswerten können. Im Rahmen dieses Projektes sollen sowohl geeignete Abbildungen einzelner SPARQL Konstrukte auf Map() und Reduce() Funktionen modelliert werden, als auch Speicherstrategien für RDF-Graphen untersucht weden.